关于时间知识图(TKGQA)的问题回答最近发现兴趣越来越大。 TKGQA需要时间推理技术来从时间知识库中提取相关信息。唯一现有的TKGQA数据集,即cronquestions,由基于固定时间段内的事实组成,其中跨越同一时期的时间知识图(TKG)可以完全使用用于答案推断,允许使用TKGQA模型。即将根据过去事实回答问题的未来知识。但是,在现实世界的情况下,鉴于到目前为止的知识也很常见,我们希望TKGQA系统回答询问未来的问题。随着人类不断寻求未来计划,建立用于回答此类预测问题的TKGQA系统很重要。然而,这在先前的研究中仍未得到探索。在本文中,我们提出了一个新的任务:关于时间知识图的预测问题。我们还为此任务提出了一个大规模的TKGQA基准数据集,即预测。它包括三种类型的问题,即实体预测,不是和事实推理问题。对于我们数据集中的每个预测问题,QA模型只能在给定问题中注释的时间戳以进行答案推理之前访问TKG信息。我们发现,最先进的TKGQA方法在预测问题上的表现较差,并且他们无法回答不是问题和事实推理问题。为此,我们提出了一种TKGQA模型预测,该模型采用TKG预测模块进行未来推断,以回答所有三种类型的问题。实验结果表明,预测到实体预测问题的最新方法优于最近的TKGQA方法,并且在回答其他两种类型的问题方面也显示出很大的有效性。
translated by 谷歌翻译
自动化机器学习近年来取得了卓越的技术发展,并建立了自动化机器学习管道现在是一个必不可少的任务。模型集合是组合多种模型来获得更好更强更强的模型的技术。然而,现有的自动化机器学习在处理模型集合方面往往是简单的,其中集合策略是固定的,例如堆叠的泛化。不同的集合方法有很多技术,尤其是合奏选择,固定的集合策略限制了模型性能的上限。在本文中,我们为自动化机器学习提出了一种新颖的框架。我们的框架纳入了动态集合选择的进步,并提出了我们最佳知识,我们的方法是自动策略领域的第一个搜索和优化集合策略。在比较实验中,我们的方法优于来自OpenML平台的42个分类数据集中具有相同CPU时间的最先进的自动化机器学习框架。对我们框架的消融实验验证了我们提出的方法的有效性。
translated by 谷歌翻译
3D重建旨在从2D视图重建3D对象。以前的3D重建工作主要关注视图之间或使用CNNS作为骨干之间的功能匹配。最近,在计算机视觉的多种应用中显示了变压器。但是,无论是变形金刚是否可用于3D重建仍然不清楚。在本文中,我们通过提出3D-Retr来填补这种差距,这能够使用变压器执行端到端的3D重建。 3D-Retr首先使用佩带的变压器从2D输入图像中提取视觉功能。然后,3D-Retr然后使用另一个变压器解码器来获得体素特征。然后,CNN解码器作为输入体素特征以获得重建的对象。 3D-Retr能够从单个视图或多个视图中重建3D重建。两个数据集上的实验结果表明,3Drett达到了3D重建的最先进的性能。额外的消融研究还表明3D-DETR使用变压器。
translated by 谷歌翻译
胸部计算机断层扫描的气道分割在肺部疾病诊断中起着至关重要的作用。与手动分割相比,基于U-NET体系结构的计算机辅助气道分割更有效,更准确。在本文中,我们采用了由骰子损失功能训练的U $^2 $ -NET,以基于ATM'22提供的299次培训CT扫描,对多站点CT扫描的气道树进行建模。从训练中将派生的显着性概率图应用于验证数据以提取相应的气道树。该观察结果表明,大多数分割的气道树从准确性和连通性的角度表现出色。将诸如非航空区域标签和去除之类的改进应用于某些获得的气道树模型,以显示二进制结果的最大组成部分。
translated by 谷歌翻译
传统的静态知识图形在关系数据中的模型实体作为节点,由特定关系类型的边缘连接。然而,信息和知识不断发展,并且时间动态出现,预计会影响未来的情况。在时间知识图中,通过用时间戳或时间范围配备每个边缘,将时间信息集成到图表中。已经引入了基于嵌入的方法,以便在时间知识图上引入链接预测,但它们主要缺乏可解释性和可理解的推理链。特别是,它们通常不设计用于处理涉及未来时间戳的链路预测 - 事件预测。我们解决了对时间知识图表链接预测的任务,并介绍了一种基于通过时间随机散步提取的时间逻辑规则的可解释的框架。我们在三个基准数据集中比较Tlogic与最先进的基线,并显示出更好的整体性能,而我们的方法还提供了保留时间一致性的解释。此外,与基于最先进的嵌入的方法相比,TLOGIC在具有普通词汇表的相关数据集转移到相关的数据集中,TLOGIC在归纳规则中运行良好。
translated by 谷歌翻译
虽然知识图表包含各种实体的丰富语义知识和它们之间的关系信息,但时间知识图(TKG)进一步表明实体随时间的相互作用。为了研究如何更好地模范TKG,自动时间知识图完成(TKGC)已经获得了很大的兴趣。最近的TKGC方法旨在整合先进的深度学习技术,例如注意机制和变压器,提高模型性能。然而,我们发现与采用各种复杂模块相比,更有利的是更好地利用沿时间轴的全部时间信息。在本文中,我们为TKGC提出了一个简单但强大的图形编码器Targcn。 targcn是参数效率,它广泛利用了整个时间上下文的信息。我们在三个基准数据集执行实验。与最先进的模型相比,我们的模型可以在GDELT数据集中实现42%以上的相对改善。同时,它优于ICEWS05-15数据集的最强大的基线,参数减少约为18.5%。
translated by 谷歌翻译
在时间知识图(TKGS)中,时间维度附加到知识库中的事实,导致(Nintendo,warpore,Super Mario,Super Mario,9月13日至1985年)之间的四倍体,在此谓词在时间间隔内保持在时间戳。我们提出了一名强化学习代理,同时收集有关查询实体社区的时间相关信息。我们将探索图结构的编码称为指纹,用作Q-NETWORK的输入。我们的代理商依次确定需要探索哪种关系类型,以扩展查询实体的本地子图。我们的评估表明,与最先进的嵌入TKG相比,提出的方法会产生竞争性结果,我们还获得有关受试者和对象之间相关结构的信息。
translated by 谷歌翻译
Compressed videos often exhibit visually annoying artifacts, known as Perceivable Encoding Artifacts (PEAs), which dramatically degrade video visual quality. Subjective and objective measures capable of identifying and quantifying various types of PEAs are critical in improving visual quality. In this paper, we investigate the influence of four spatial PEAs (i.e. blurring, blocking, bleeding, and ringing) and two temporal PEAs (i.e. flickering and floating) on video quality. For spatial artifacts, we propose a visual saliency model with a low computational cost and higher consistency with human visual perception. In terms of temporal artifacts, self-attention based TimeSFormer is improved to detect temporal artifacts. Based on the six types of PEAs, a quality metric called Saliency-Aware Spatio-Temporal Artifacts Measurement (SSTAM) is proposed. Experimental results demonstrate that the proposed method outperforms state-of-the-art metrics. We believe that SSTAM will be beneficial for optimizing video coding techniques.
translated by 谷歌翻译
As one of the most important psychic stress reactions, micro-expressions (MEs), are spontaneous and transient facial expressions that can reveal the genuine emotions of human beings. Thus, recognizing MEs (MER) automatically is becoming increasingly crucial in the field of affective computing, and provides essential technical support in lie detection, psychological analysis and other areas. However, the lack of abundant ME data seriously restricts the development of cutting-edge data-driven MER models. Despite the recent efforts of several spontaneous ME datasets to alleviate this problem, it is still a tiny amount of work. To solve the problem of ME data hunger, we construct a dynamic spontaneous ME dataset with the largest current ME data scale, called DFME (Dynamic Facial Micro-expressions), which includes 7,526 well-labeled ME videos induced by 671 participants and annotated by more than 20 annotators throughout three years. Afterwards, we adopt four classical spatiotemporal feature learning models on DFME to perform MER experiments to objectively verify the validity of DFME dataset. In addition, we explore different solutions to the class imbalance and key-frame sequence sampling problems in dynamic MER respectively on DFME, so as to provide a valuable reference for future research. The comprehensive experimental results show that our DFME dataset can facilitate the research of automatic MER, and provide a new benchmark for MER. DFME will be published via https://mea-lab-421.github.io.
translated by 谷歌翻译
Face Anti-spoofing (FAS) is essential to secure face recognition systems from various physical attacks. However, recent research generally focuses on short-distance applications (i.e., phone unlocking) while lacking consideration of long-distance scenes (i.e., surveillance security checks). In order to promote relevant research and fill this gap in the community, we collect a large-scale Surveillance High-Fidelity Mask (SuHiFiMask) dataset captured under 40 surveillance scenes, which has 101 subjects from different age groups with 232 3D attacks (high-fidelity masks), 200 2D attacks (posters, portraits, and screens), and 2 adversarial attacks. In this scene, low image resolution and noise interference are new challenges faced in surveillance FAS. Together with the SuHiFiMask dataset, we propose a Contrastive Quality-Invariance Learning (CQIL) network to alleviate the performance degradation caused by image quality from three aspects: (1) An Image Quality Variable module (IQV) is introduced to recover image information associated with discrimination by combining the super-resolution network. (2) Using generated sample pairs to simulate quality variance distributions to help contrastive learning strategies obtain robust feature representation under quality variation. (3) A Separate Quality Network (SQN) is designed to learn discriminative features independent of image quality. Finally, a large number of experiments verify the quality of the SuHiFiMask dataset and the superiority of the proposed CQIL.
translated by 谷歌翻译